[小山译] Claude Skill 编写与实战指南
[小山译] Claude Skill 编写与实战指南最近沉迷折腾龙虾,想把日常工作都 Skill 化,试了挺多方法都不怎么好用。正好最近 Anthropic 出了一份官方指南,我边学边翻,分享给你。
最近沉迷折腾龙虾,想把日常工作都 Skill 化,试了挺多方法都不怎么好用。正好最近 Anthropic 出了一份官方指南,我边学边翻,分享给你。
近日,Anthropic 公布了一组惊人的数字,在与 Mozilla 公司进行合作,测试旗下模型 Claude Opus 4.6 发现漏洞能力的过程中,两周内,就找出 Mozilla 公司「火狐」(Firefox)浏览器中 22 个不同的漏洞,其中 14 个是「高危漏洞」级别,而这几乎是 Mozilla 2025 年修复的全部「高危漏洞」的五分之一。
Anthropic CEO Dario Amodei在摩根士丹利会议上扔出一颗深水炸弹:Scaling Law根本没撞墙,2026年将迎来激进加速。他用棋盘稻米寓言做了个精准比喻——我们正站在第40格,前39格的所有震撼加在一起,不过是后24格的零头。这场指数级狂飙,没人准备好。
近日, Anthropic 和斯坦福研究者 Neil Rathi 与这位传奇研究者联合发布了一篇新论文,并得到了一些相当惊人的新发现。在这项研究中,他们挑战了当前大模型安全领域的一个核心假设。长期以来,业界普遍认为要在模型发布后通过 RLHF 或微调来限制其危险行为。但 Neil Rathi 和 Alec Radford 提出了一种更本质的解法:
昨天,我们报道了「OpenAI 光速滑跪,背刺 Anthropic,高调签下军方大单」的新闻。今天,这一事件又有了新进展 ——OpenAI 公布了他们与五角大楼协议的部分内容,声称签的合同能够确保他们的 AI 模型不被用于大规模监控美国公民和自动化武器,和 Anthropic 之前提供的方案「很不一样」。
此事件震动了整个硅谷。虽然此前因为抨击其他 AI 公司「蒸馏」其模型,Anthropic 成为了众矢之的,但目前 Anthropic 在科技界获得了巨大的声援。包括竞争对手 OpenAI、谷歌都公开表态支持 Anthropic 坚守底线的决定。
北京时间 2 月 28 日上午 9:24,Anthropic 官方账号发布置顶声明,回应国防部长 Hegseth 的供应链风险标签宣告,这是 Anthropic 在事件公开后的首次正式表态,声明同步挂在 anthropic.com 官网
白宫官方账号于北京时间 2 月 28 日凌晨转发特朗普声明(发布于特朗普自己的媒体 Truth Social),宣布所有联邦机构立即停用 Anthropic 技术,给予六个月过渡期
2026 年 2 月 15 日,Sam Altman 宣布:Peter Steinberger 加入 OpenAI,负责下一代个人 Agent。11 天后,Anthropic 宣布收购 Vercept。但这两件事放在一起看,说的是同一件事:AI 的战场正在发生一次非常具体的迁移——从「谁的模型更聪明」,到「谁能让 AI 真正控制一台电脑」。
Anthropic 周三宣布已收购 Vercept,这家 AI 初创公司团队核心成员与西雅图科技界的多家知名企业渊源深厚。此次收购是继去年 12 月 Anthropic 收购编程智能体引擎 Bun 以推动 Claude Code 规模化发展之后的最新动作。